Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Reconocimiento de voz (Presentación Powerpoint) (página 2)




Enviado por Pablo Turmero



Partes: 1, 2, 3

Monografias.com

5.1.- Ajuste de plantillas
Esquema genérico:
Extracción
características
DTW
Plantillas
Vectores
característicos
Puntuaciones
por palabra
P1
P2
P3

PN
Elección
Voz

Monografias.com

5.1.- Ajuste de plantillas
Ajuste de plantillas:
Comparar los vectores de características obtenidos con las plantillas (vectores característicos de las palabras del vocabulario)
El que menor distancia obtiene es la palabra elegida

Problema:
Las palabras no duran siempre lo mismo
Ej: se puede hablar más despacio o más deprisa

Solución: DTW

Monografias.com

5.1.- Ajuste de plantillas
DTW:
Para cada plantilla del vocabulario intenta encontrar el mejor alineamiento entre los dos patrones a comparar

Distancia entre dos patrones:
Distancia menor de todos los caminos posibles

Distancia de un camino:
Suma de las distancias parciales a lo largo de dicho camino

Monografias.com

5.1.- Ajuste de plantillas
Puntuación de
distorsión
Tiempo
(Plantilla)
Tiempo
(Entrada)
Vectores
Característicos

Monografias.com

5.1.- Ajuste de plantillas
Notación:
d(i,j): Distancia euclidea entre dos vectores de características
g(i,j): Distancia acumulada

Reglas de cálculo de las distancias:
El camino empieza en (1,1) y termina en (M,N)

Monografias.com

5.1.- Ajuste de plantillas
Coste computacional:

El coste es cuadrático con el número de segmentos de la palabra

Además hay que calcular la distancia con todas las palabras del vocabulario: coste cúbico

Válido para vocabularios pequeños

Monografias.com

5.1.- Ajuste de plantillas
Restricciones:
Reducción del coste
(Gp:) I,J
(Gp:) j=0.5i-(0.5I+J)
(Gp:) j=2i-(2I-J)
(Gp:) j=2i-1
(Gp:) j=0.5i+0.5
(Gp:) Área válida
(Ventana de ajuste)
(Gp:) i
(Gp:) j

Monografias.com

5.1.- Ajuste de plantillas
Umbral de decisión:
Falso rechazo
Falsa aceptación

Monografias.com

5.1.- Ajuste de plantillas
Ventajas:
Algoritmo sencillo de implementar

Inconvenientes:
Funciona con palabras aisladas
Dependiente del locutor
Vocabularios reducidos
De cada palabra debe haber varias realizaciones para paliar la variabilidad intralocutor

Monografias.com

5.2.- Modelos ocultos de Markov
Un HMM puede verse como una máquina de estados finitos estocástica.
A: 0.5
B: 0.5
A: 0.25
B: 0.75
0.35
0.65
1.0

Monografias.com

5.2.- Modelos ocultos de Markov
En cada transición se genera el símbolo de salida asociado al estado
La elección de la transición está gobernada por distribuciones de probabilidad
En reconocimiento de voz cada estado modela un segmento (dífono, semisilaba, …)

Monografias.com

5.2.- Modelos ocultos de Markov
Reconocimiento de palabras aisladas:
Cada HMM modela una palabra
Los lazos dentro del mismo estado representan la continuación en el tiempo de un mismo suceso acústico
S1
S2
(Gp:) S3

SN

Monografias.com

5.2.- Modelos ocultos de Markov
Elementos de un HMM:
Numero de estados: N
Conjunto de posibles estados:

Distribución de probabilidad del estado inicial

Las probabilidades de transición entre estados:

Siendo qn el estado en el que nos encontramos en el instante (segmento) n

Monografias.com

5.2.- Modelos ocultos de Markov
Matriz de probabilidades de transición entre estados:
Es independiente del instante de tiempo n
: Probabilidad de transición del estado i al j
(Gp:) S A
(Gp:) A
(Gp:) L

Monografias.com

5.2.- Modelos ocultos de Markov
Para cada estado se necesita la distribución de probabilidad de las observaciones:
(Gp:) S A
(Gp:) A
(Gp:) L

Monografias.com

5.2.- Modelos ocultos de Markov
Entrenamiento:
Para cada palabra del vocabulario hay que calcular los parámetros del modelo
Es necesario tener suficientes muestras para que los parámetros calculados sean representativos

Reconocimiento:
A partir de una secuencia de observaciones se evalúa cual de todos los HMM presenta mayor probabilidad de haber generado la secuencia

Monografias.com

5.2.- Modelos ocultos de Markov
Entrenamiento de un HMM:
Estima de los parámetros (probabilidades)

Generalmente se emplean dos técnicas:

Algoritmo de las k-medias: para estimar las probabilidades desde cero

Algoritmo de Baum-Welch: para refinar una estimación ya hecha

Monografias.com

5.2.- Modelos ocultos de Markov
Ejemplo: Reconocimiento
(Gp:) S1 A
(Gp:) S2
(Gp:) S3

Sn-1
(Gp:) Sn

VOZ
Extracción de características
Alinear vectores con estados y sumar las puntuaciones

Monografias.com

5.2.- Modelos ocultos de Markov
¿Por qué modelos ocultos?

Un HMM lleva asociado 2 procesos estocásticos
Uno no es observable: Es la secuencia de estados por la que se ha pasado
El segundo es observable y está relacionado con el anterior.

Ejemplo: Urnas con bolas de colores

Monografias.com

5.3.- Redes Neuronales
NN: Neural Networks
Son una simulación abstracta del sistema nervioso

Redes neuronales biológicas:
Las neuronas y sus conexiones son la clave del procesado de la información
Dentritas
(entradas)
Axón
(salida)
Cuerpo

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter